تازه های هوش مصنوعی حل تکالیف
تولید کنندگان و طراحان نرم افزار خود را در هوش مصنوعی حل تکالیف مضیقه قابل توجهی نسبت به سایر نقاط جهان قرار می دهد.
منطقیتر است که در مورد اهداف گسترده مورد نظر در هوش مصنوعی فکر کنیم و سیاستهایی را وضع کنیم که آنها را پیش میبرد، برخلاف دولتهایی که سعی میکنند «ج هوش مصنوعی حل تکالیف عبههای سیاه» را باز کنند و دقیقاً ببینند الگوریتمهای خاص چگونه عمل میکنند. تنظیم الگوریتم های فردی نوآوری را محدود می کند و استفاده از هوش مصنوعی را برای شرکت ها دشوار می کند.
تعصبات را جدی بگیرید
تعصب و تبعیض مسائل جدی برای هوش مصنوعی هوش مصنوعی حل تکالیف است. قبلاً تعدادی از موارد رفتار ناعادلانه مرتبط با داده های تاریخی وجود داشته است، و باید اقدامات لازم را انجام داد تا اطمینان حاصل شود که این رفتار در هوش مصنوعی رایج نمی شود. قوانین موجود حاکم بر تبعیض در اقتصاد فیزیکی باید به پلتفرمهای دیجیتال گسترش یابد. این به محافظت از مصرف کنندگان و ایجاد اعتماد در کل این سیستم ها کمک می کند.
برای اینکه این پیشرفت ها به طور گسترده مورد پذیرش هوش مصنوعی حل تکالیف قرار گیرند، شفافیت بیشتری در نحوه عملکرد سیستم های هوش مصنوعی مورد نیاز است. اندرو برت از Immuta استدلال می کند، "مشکل کلیدی در مواجهه با تجزیه و تحلیل پیش بینی کننده واقعا شفافیت است. ما در دنیایی هستیم که عملیات علم داده وظایف مهمتری را بر عهده میگیرد و تنها چیزی که مانع از آن میشود این است که دانشمندان دادهای که مدلها را آموزش میدهند تا چه حد میتوانند توضیح دهند که مدلهایشان چه میکنند.»
حفظ مکانیسم های نظارت و کنترل انسانی
برخی افراد استدلال کردهاند که باید راههایی وجود هوش مصنوعی حل تکالیف داشته باشد تا انسانها بتوانند بر سیستمهای هوش مصنوعی نظارت و کنترل کنند. به عنوان مثال، اورن اتزیونی، مدیر عامل موسسه آلن برای هوش مصنوعی، استدلال میکند که باید قوانینی برای تنظیم این سیستمها وجود داشته باشد. او میگوید اولاً، هوش مصنوعی باید توسط تمام قوانینی که قبلاً برای رفتارهای انسانی تدوین شدهاند، از جمله مقررات مربوط به «قلدری سایبری، دستکاری سهام یا تهدیدات تروریستی» و همچنین «به دام انداختن افراد در ارتکاب جنایت» کنترل شود. دوم، او معتقد است که این سیستم ها باید افشا کنند که سیستم های خودکار هستند و نه انسان. سوم، او بیان میکند: «یک A.I. سیستم نمی تواند اطلاعات هوش مصنوعی حل تکالیف محرمانه را بدون تأیید صریح منبع آن اطلاعات حفظ یا افشا کند.» 67 منطق او این است که این ابزارها داده های زیادی را ذخیره می کنند که مردم باید از خطرات حریم خصوصی ناشی از هوش مصنوعی آگاه باشند.
در همین راستا، IEEE Global Initiative دستورالعملهای اخلاقی برای هوش مصنوعی و سیستمهای مستقل دارد. کارشناسان آن پیشنهاد می کنند که این مدل ها با در نظر گرفتن هنجارها و هوش مصنوعی حل تکالیف قواعد پذیرفته شده انسانی برای رفتار برنامه ریزی شوند. الگوریتمهای هوش مصنوعی باید اهمیت این هنجارها، نحوه حل تعارض هنجارها و راههایی را که این سیستمها میتوانند در مورد حل هنجارها شفاف باشند را در نظر بگیرند. به گفته کارشناسان اخلاق، طرحهای نرمافزار باید برای «فریبنکردن» و «صداقت» برنامهریزی شوند. هنگامی که شکست رخ می دهد، باید مکانیسم های کاهش برای مقابله با عواقب وجود داشته باشد. به ویژه، هوش مصنوعی باید نسبت به مشکلاتی مانند تعصب، تبعیض و انصاف حساس باشد.68
گروهی از کارشناسان یادگیری ماشین ادعا میکنند که میتوان تصمیمگیری اخلاقی را خودکار کرد. با استفاده از مشکل ترولی به عنوان یک معضل اخلاقی، آنها این سوال را مطرح می کنند: اگر یک خودروی خودران از کنترل خارج شود، آیا باید برای کشتن مسافران خود یا عابران پیاده ای که در حال عبور هوش مصنوعی حل تکالیف از خیابان هستند برنامه ریزی شود؟ آنها یک "سیستم مبتنی بر رای" ابداع کردند که از 1.3 میلیون نفر خواسته شد تا سناریوهای جایگزین را ارزیابی کنند، انتخاب های کلی را خلاصه کرده و دیدگاه کلی این افراد را برای طیف وسیعی از احتمالات وسایل نقلیه اعمال کنند. این به آنها اجازه داد تا تصمیمگیری اخلاقی را در الگوریتمهای هوش مصنوعی، با در نظر گرفتن ترجیحات آموزش برنامه نویسی کودکان و نوجوانان عمومی، خودکار کنند.69 البته، این رویه، فاجعهای که در هر نوع مرگباری وجود دارد، مانند مورد اوبر را کاهش نمیدهد، اما مکانیزمی را فراهم میکند تا به توسعه دهندگان هوش مصنوعی کمک کنید تا ملاحظات اخلاقی را در برنامه ریزی خود لحاظ کنند.
رفتارهای مخرب را مجازات کنید و امنیت سایبری را ارتقا دهید
مانند هر فن آوری نوظهور، مهم است که از درمان مخربی که برای فریب دادن نرم افزار یا استفاده از آن برای اهداف نامطلوب طراحی شده است، جلوگیری شود.70 این امر به ویژه با توجه به جنبه های استفاده دوگانه هوش مصنوعی، که در آن ابزار مشابه می تواند برای اهداف سودمند یا مخرب استفاده شود، اهمیت دارد. . استفاده بدخواهانه از هوش مصنوعی افراد و سازمان ها را در معرض خطرات غیرضروری قرار می دهد و فضایل فناوری نوظهور را تضعیف می کند. این شامل رفتارهایی مانند هک کردن، دستکاری الگوریتم ها، به خطر انداختن حریم خصوصی و هوش مصنوعی حل تکالیف محرمانگی یا سرقت هویت می شود. تلاش برای ربودن هوش مصنوعی به منظور کسب اطلاعات محرمانه باید بهعنوان راهی برای جلوگیری از چنین اقداماتی بهطور جدی مجازات شود.
در دنیایی که به سرعت در حال تغییر است و بسیاری از نهادها دارای قابلیتهای محاسباتی پیشرفته هستند، باید به امنیت سایبری توجه جدی شود. کشورها باید مراقب باشند تا از سیستم های خود محافظت کنند و سایر کشورها را از آسیب رساندن به امنیت آنها دور نگه دارند.72 طبق گزارش وزارت امنیت Artificial intelligence to solve homework داخلی ایالات متحده، یک بانک بزرگ آمریکایی هفته ای حدود 11 میلیون تماس در مرکز خدمات خود دریافت می کند. در یا